返回笔记
📄 📖 夜航船 2026-03-31T00:00:00.000Z

Mem0 调研报告

调研 技术文档 记忆系统 Mem0 OpenClaw

🔬 Mem0 调研报告

调研日期:2026-03-31 调研人:暖树 🌸 任务ID:ciallo-20260331-007

1. Mem0 是什么?核心功能是什么?

Mem0 (“mem-zero”) 是一个AI 记忆层,为 AI 助手和 Agent 提供智能记忆能力。

核心功能

功能说明
多级记忆支持用户级(长期)、会话级(短期)、Agent 级记忆
智能压缩将对话历史压缩为优化的记忆表示,减少 90% token
自动提取自动从对话中提取重要信息存储为记忆
语义检索基于向量的语义搜索,精准召回相关记忆
去重合并智能去重,合并相似记忆
实体图谱可选的图数据库,捕获实体间关系

官方数据(LOCOMO 基准测试)

  • 26% 准确率提升(vs OpenAI Memory)
  • 91% 延迟降低(vs 全上下文方法)
  • 90% Token 节省(vs 全上下文方法)

来源: mem0.ai/research


2. 它怎么和 OpenClaw 集成?集成方式是什么?

集成方式:OpenClaw 插件

# 安装插件
openclaw plugins install @mem0/openclaw-mem0

配置方式

方案 A:Mem0 Cloud(平台模式)

// openclaw.json -> plugins.entries
"openclaw-mem0": {
  "enabled": true,
  "config": {
    "apiKey": "${MEM0_API_KEY}",
    "userId": "alice"  // 自定义用户标识
  }
}

方案 B:自托管(开源模式)

"openclaw-mem0": {
  "enabled": true,
  "config": {
    "mode": "open-source",
    "userId": "alice"
  }
}

插件功能

功能说明
Auto-Recall每次对话前自动检索相关记忆注入上下文
Auto-Capture每次对话后自动提取值得保存的信息
5 个 Agent 工具memory_search, memory_list, memory_store, memory_get, memory_forget

记忆分类

  • 会话记忆(短期):当前会话上下文,通过 run_id 关联
  • 用户记忆(长期):跨会话持久记忆,需显式存储

来源: docs.mem0.ai/integrations/openclaw


3. 省 90% Token 的原理是什么?和我们的 QMD 相比呢?

Mem0 省 Token 原理

对比项全上下文(无记忆)Mem0
历史处理方式全部对话注入压缩为关键事实
Token 消耗100%(基准)~10%
延迟17.12s1.44s(降低 91%)

原理:

  1. 智能提取:从对话中提取关键事实(偏好、事实、上下文)
  2. 语义压缩:用向量表示代替原始文本
  3. 精准检索:只召回与当前查询相关的记忆片段
  4. 去重合并:避免重复信息堆积

与 QMD 对比

对比项QMD(当前方案)Mem0
类型本地语义搜索引擎记忆管理 + 语义搜索
数据源MEMORY.md + 工作区文件对话历史自动提取
存储本地文件 + 向量索引向量数据库(Qdrant/云)
提取方式手动维护 MEMORY.md自动从对话提取
部署100% 本地云托管 或 自托管
资源消耗~2.5GB 模型文件取决于配置
隐私完全本地云模式数据在 Mem0 服务器
费用免费云模式有费用,OSS 免费
多用户不支持(单人)支持(userId 隔离)

关键差异:

  • QMD = 搜索工具(搜索已有的 MEMORY.md)
  • Mem0 = 记忆管理系统(自动提取 + 存储 + 搜索)

来源: GitHub README, 官方文档


4. 需要什么资源?(API Key、服务器、费用等)

云模式(Platform)

资源需求
API KeyMem0 平台注册后获取
服务器无需(托管服务)
LLMMem0 内置(优化过的模型)
费用使用量计费(Pro 计划 $1000/3月,有创业计划免费)

开源模式(Self-hosted)

资源需求
API Key无需 Mem0 Key,但需要 LLM Key(OpenAI 等)
向量数据库Qdrant / Chroma / Pinecone 等(默认内存模式)
LLMOpenAI / Anthropic / Ollama 等
服务器取决于数据量(向量数据库需要内存)
费用Apache 2.0 免费 + LLM API 费用 + 服务器费用

推荐配置(自托管)

# 基础配置
LLM: OpenAI (text-embedding-3-small + gpt-4o-mini)
Vector DB: Qdrant (本地 Docker)
服务器: 2核4G 起步

# 隐私优先配置
LLM: Ollama + 本地模型
Vector DB: Qdrant (本地)
服务器: 4核8G + GPU 推荐

来源: docs.mem0.ai/platform/platform-vs-oss


5. 适不适合我们当前的架构?

我们当前的架构

  • 6 个 Agent:陈平安、宁姚、小任、裴钱、暖树、周米粒
  • QMD:本地语义搜索(搜索 MEMORY.md + 工作区文件)
  • 飞书群聊:Agent 间通过群聊协作
  • 独立记忆:每个 Agent 有自己的 workspace 和 MEMORY.md

优势分析

场景Mem0 是否适合说明
多用户记忆隔离✅ 非常适合userId 天然支持多用户隔离
自动记忆提取✅ 优势明显无需手动维护 MEMORY.md
跨会话持久化✅ 原生支持QMD 需要手动更新文件
图关系记忆✅ 可选功能Mem0g 支持实体关系图谱
本地部署✅ 支持开源版可完全本地化

劣势分析

问题说明
与 QMD 功能重叠QMD 已覆盖记忆搜索功能
额外复杂度需要维护向量数据库 + LLM API
成本增加云模式有费用,自托管需要服务器资源
架构适配当前单人多 Agent,Mem0 主打多用户
数据迁移现有 MEMORY.md 需要迁移或并行

综合评估

维度评分(1-5)说明
功能匹配度⭐⭐⭐☆☆自动提取是亮点,但 QMD 已覆盖搜索
集成难度⭐⭐⭐⭐☆插件式集成,配置简单
成本效益⭐⭐☆☆☆需额外资源,收益有限
隐私安全⭐⭐⭐⭐☆支持自托管,数据可控
维护成本⭐⭐⭐☆☆需维护向量数据库

🎯 结论

短期建议:暂不集成

原因:

  1. 功能重叠:QMD 已提供记忆搜索,且 100% 本地、免费、无 API 依赖
  2. 架构不匹配:Mem0 主打多用户场景,我们是单人多 Agent
  3. 成本增加:需要额外维护向量数据库 + LLM API(或支付云服务费用)
  4. 收益有限:自动提取功能有吸引力,但当前手写 MEMORY.md 效果也不错

长期考虑:值得关注

适合接入的场景:

  1. 如果团队扩展到多人使用,需要记忆隔离
  2. 如果需要自动从对话提取记忆,减少手动维护
  3. 如果需要实体关系图谱(Mem0g)
  4. 如果 QMD 性能遇到瓶颈,需要更高级的记忆管理

补充说明:Mem0 解决的问题

Mem0 官方文章指出 OpenClaw 默认记忆系统的缺陷:

  1. 保存依赖 LLM 判断:LLM 可能选择不保存重要信息
  2. 召回依赖 LLM 决策:LLM 可能不调用 memory_search,直接从训练数据回答
  3. 上下文压缩导致丢失:长对话会压缩/删除历史消息

Mem0 通过强制自动提取 + 自动召回解决这些问题,不依赖 LLM 的主动决策。

来源: mem0.ai/blog/add-persistent-memory-openclaw

替代方案

方案说明
优化 QMD改进 QMD 的搜索质量,增加自动提取脚本
混合方案保留 QMD 搜索,用 Mem0 OSS 做自动提取
增强现有系统在 AGENTS.md 中强制 Agent 使用 memory_search 工具
评估其他方案如 LangMem、Zep 等同类产品

📚 参考来源

  1. Mem0 官方文档 - OpenClaw 集成
  2. Mem0 GitHub 仓库
  3. Mem0 研究论文
  4. Mem0 定价
  5. Platform vs OSS 对比


🔗 相关笔记

  • [[2026-03-31-Mem0深度分析]] - 深入评估
  • [[2026-04-03-TencentDB记忆对比]] - 替代方案
  • [[2026-04-07-OpenClaw-Dreaming对比分析]] - 系统对比
  • [[2026-04-08-OpenClaw记忆系统使用说明]] - 使用指南
  • [[2026-03-31-QMD调研报告]] - 现有方案

初稿:2026-03-31 暖树 🌸

← 上一篇
Mem0 深度分析:对落魄山团队的实际提升
下一篇 →
Obsidian 日报系统 · 主题与插件推荐